Нови видео инструменти за изкуствен интелект засилват притесненията от дълбоки фалшификации преди изборите
Видеоклипът, който OpenAI пусна, за да разкрие новия си инструмент за текст във видео, Sora, трябва да се види, за да се повярва. Фотореалистични сцени на връхлитащи вълнести мамути в облаци сняг, двойка, която се разхожда през падащи черешови цветове и въздушни кадри на златната треска в Калифорния.
Съобщава се, че демонстрацията е накарала филмовия продуцент Тайлър Пери да спре инвестиция в студио от 800 милиона долара. Инструменти като Sora обещават да превърнат визията на потребителя в реалистични движещи се изображения с проста текстова подкана, логиката е, правейки студията остарели.
Други се притесняват, че изкуствен интелект (AI) като този може да бъде използван от хора с по-тъмно въображение. Злонамерените участници биха могли да използват тези услуги, за да създадат изключително реалистични дълбоки фалшификати, объркващи или подвеждащи гласоподавателите по време на избори или просто причинявайки хаос чрез разпръскване на разделящи слухове.
Регулаторите, правоприлагащите органи и социалните медийни платформи вече се борят да се справят с нарастването на генерираната от AI дезинформация, включително фалшиви аудиозаписи на политически лидери, за които се твърди, че са помогнали за изкривяването на избори в Словакия и са обезсърчили хората да гласуват в Ню Хемпшир първични избори.
Политиците и гражданското общество се тревожат, че тъй като тези инструменти стават все по-сложни, за обикновените хора ще бъде по-трудно от всякога да различат кое е истинско и кое е фалшиво.
Но експертите по политическа дезинформация и ИИ казват, че нарастващата употреба на продукти на ИИ е само нов аспект на стар проблем. Тези инструменти просто добавят към вече добре заредения арсенал от технологии и техники, използвани за манипулиране и подвеждане.
Справянето с предизвикателството на дълбоките фалшификати наистина означава справяне с неразрешените въпроси за това как да се регулират платформите на социалните медии, в които те ще се разпространяват, и да се накарат големите технологични компании да отговорят, когато продуктите им са оставени за злоупотреба.
„Тези генератори на изображения с изкуствен интелект заплашват да влошат проблема с дезинформацията за изборите, но трябва да сме много наясно, че това вече е проблем“, каза Калъм Худ, ръководител на изследванията в Центъра за противодействие на цифровата омраза (CCDH), a кампания група. „Вече се нуждаем от по-строги мерки от платформите на социалните медии по този съществуващ проблем.“
Няколко компании, които предлагат генератори на изображения с изкуствен интелект, включително Midjourney, OpenAI и Microsoft, имат политики, които трябва да попречат на потребителите да генерират подвеждащи снимки. CCDH обаче твърди, че тези правила не се прилагат.
В проучване, публикувано на 6 март, центърът показа, че все още е сравнително лесно да се генерират изображения, които биха могли да бъдат опасни в силно пристрастния контекст на изборите в Съединените щати, включително фалшиви фотореалистични изображения на президента Джо Байдън в болница или поздрави на мигранти на границата с Мексико и изображения в стил CCTV на манипулиране на избори.
Тези изображения отразяват често срещани лъжи в политиката на САЩ. Бившият президент Доналд Тръмп рутинно пропагандира идеята, че резултатите от изборите през 2020 г. са били манипулирани, лъжа, която спомогна за пораждането на бурни протести в сградата на Капитолия през януари 2021 г.
„Това показва, че [компаниите] не са обмислили достатъчно това“, каза Худ. „Голямата уязвимост тук е в изображенията, които могат да бъдат използвани в подкрепа на разказ за откраднати избори или фалшиви твърдения за изборни измами.“
Изследователите откриха значителни разлики в начина, по който отделните създатели на изображения реагираха на подканите – някои не позволяваха на потребителите да създават изображения, които са много очевидно партийни. „Тези различия показват, че е възможно да се въведат ефективни предпазни мерки“, каза Худ, добавяйки, че това отразява избор от страна на компаниите.
„Това е симптоматично за по-широк дисбаланс между мотива за печалба и безопасността на компаниите с ИИ“, каза той. „Те имат всички стимули да се движат възможно най-бързо с възможно най-малко предпазни огради, за да могат да прокарат продукти, да прокарат нови функции и да грабнат малко повече рисково финансиране или инвестиции. Те нямат стимул да забавят темпото и първо да бъдат в безопасност.“
OpenAI, Microsoft и MidJourney не отговориха на искания за коментар.
Малко постигнато
Този стимул вероятно ще дойде само под формата на регулация, която принуждава технологичните компании да действат и ги наказва, ако не го направят. Но експертите по дезинформация в социалните медии казват, че изпитват чувство на дежавю. Разговорите, които се водят около регулирането на ИИ, звучат зловещо като тези, които се водеха преди години около разпространението на дезинформация в социалните медии. Големите технологични компании обещаха да въведат мерки за справяне с разпространението на опасни лъжи, но проблемът продължава.
„Това е като Деня на мармота“, каза Уилям Данс, старши научен сътрудник в университета Ланкастър, който е съветвал правителствените отдели и службите за сигурност на Обединеното кралство относно дезинформацията. „И това ви казва колко малко всъщност сме постигнали през последните 10-15 години.“
С потенциално силно напрегнатите избори, които се провеждат в Европейския съюз, Обединеното кралство, Индия и САЩ тази година, големите технологични компании отново обещаха, индивидуално и колективно, да намалят разпространението на този вид дезинформация и дезинформация в своите платформи.
В края на февруари собственикът на Facebook и Instagram Мета обяви серия от мерки, насочени към намаляване на дезинформацията и ограничаване на обхвата на целеви операции за влияние по време на изборите за Европейски парламент. Те включват разрешаване на партньори за проверка на факти – независими организации, Meta позволява да етикетират съдържание от свое име – да етикетират генерирано от AI или манипулирано съдържание.
Meta беше сред приблизително 20 компании, които подписаха „Tech Accord“, което обещава да разработи инструменти за откриване, етикетиране и потенциално развенчаване на дезинформация, генерирана от AI.
„Изглежда, че има някакъв празен шаблон, който е като: „Ще направим всичко възможно, за да се предпазим от празно“, каза Данс. „Дезинформация, реч на омразата, AI, каквото и да е.“
Сливането на нерегулиран изкуствен интелект и нерегулирани социални медии тревожи мнозина в гражданското общество, особено след като няколко от най-големите социални медийни платформи съкратиха своите екипи за „доверие и безопасност“, отговорни за надзора на реакцията им на дезинформация и дезинформация, реч на омразата и друго вредно съдържание. X – бивш Twitter – изхвърли почти една трета от своя персонал за доверие и безопасност, след като Илон Мъск пое платформата през 2022 г.
„Намираме се в двойно обезпокоителна ситуация, в която разпространителите на изборна дезинформация разполагат с нови инструменти и възможности, докато компаниите за социални медии в много случаи изглежда умишлено се ограничават по отношение на възможностите, които имат за действие относно изборната дезинформация“, каза Худ от CCDH. „Така че това е наистина значима и тревожна тенденция.“
Преди изборните цикли да започнат сериозно, ще бъде трудно да се предвиди степента, в която дълбоките фалшификати ще се разпространяват в социалните медии. Но някои от щетите вече са нанесени, казват изследователите. Тъй като хората стават по-наясно със способността да създават сложни фалшиви кадри или изображения, това създава по-широко чувство на недоверие и безпокойство. Реалните изображения или видеоклипове могат да бъдат отхвърлени като фалшиви – феномен, известен като „дивидента на лъжеца“.
„Влизам онлайн, виждам нещо и си казвам „Това реално ли е? Този изкуствен интелект ли е генериран? Не мога да кажа повече“, каза Кайченг Янг, изследовател в Североизточния университет, който изучава изкуствения интелект и дезинформацията. „За средните потребители просто ще предположа, че ще бъде по-лошо. Няма значение колко истинско съдържание има онлайн. Докато хората вярват, че има много, значи имаме проблем.“